The monograph summarizes and analyzes the current state of development of computer and mathematical simulation and modeling, the automation of management processes, the use of information technologies in education, the design of information systems and software complexes, the development of computer telecommunication networks and technologies most areas that are united by the term Industry 4.0
translated by 谷歌翻译
People constantly use language to learn about the world. Computational linguists have capitalized on this fact to build large language models (LLMs) that acquire co-occurrence-based knowledge from language corpora. LLMs achieve impressive performance on many tasks, but the robustness of their world knowledge has been questioned. Here, we ask: do LLMs acquire generalized knowledge about real-world events? Using curated sets of minimal sentence pairs (n=1215), we tested whether LLMs are more likely to generate plausible event descriptions compared to their implausible counterparts. We found that LLMs systematically distinguish possible and impossible events (The teacher bought the laptop vs. The laptop bought the teacher) but fall short of human performance when distinguishing likely and unlikely events (The nanny tutored the boy vs. The boy tutored the nanny). In follow-up analyses, we show that (i) LLM scores are driven by both plausibility and surface-level sentence features, (ii) LLMs generalize well across syntactic sentence variants (active vs passive) but less well across semantic sentence variants (synonymous sentences), (iii) some, but not all LLM deviations from ground-truth labels align with crowdsourced human judgments, and (iv) explicit event plausibility information emerges in middle LLM layers and remains high thereafter. Overall, our analyses reveal a gap in LLMs' event knowledge, highlighting their limitations as generalized knowledge bases. We conclude by speculating that the differential performance on impossible vs. unlikely events is not a temporary setback but an inherent property of LLMs, reflecting a fundamental difference between linguistic knowledge and world knowledge in intelligent systems.
translated by 谷歌翻译
对使用因果机器学习模型做出的决策的现实测试是成功应用的基本先决条件。我们专注于评估和改善上下文治疗作业决策:这些是适用于例如客户,每个都有自己的上下文信息,以最大程度地获得奖励。在本文中,我们介绍了一个模型不足的框架,用于收集数据,以通过贝叶斯实验设计评估和改善上下文决策。具体而言,我们的方法用于对过去治疗作业的遗憾的数据有效评估。与A/B测试之类的方法不同,我们的方法避免了分配已知是高度优势的治疗方法,同时进行一些探索以收集相关信息。我们通过引入一个基于信息的设计目标来实现这一目标,我们优化了端到端。我们的方法适用于离散和连续治疗。在几项仿真研究中,将我们的信息理论方法与基准者进行比较,这表明了我们提出的方法的出色表现。
translated by 谷歌翻译
通用形态(UNIMORPH)项目是一项合作的努力,可为数百种世界语言实例化覆盖范围的标准化形态拐角。该项目包括两个主要的推力:一种无独立的特征架构,用于丰富的形态注释,并以各种语言意识到该模式的各种语言的带注释数据的类型级别资源。本文介绍了过去几年对几个方面的扩张和改进(自McCarthy等人(2020年)以来)。众多语言学家的合作努力增加了67种新语言,其中包括30种濒危语言。我们已经对提取管道进行了一些改进,以解决一些问题,例如缺少性别和马克龙信息。我们还修改了模式,使用了形态学现象所需的层次结构,例如多肢体协议和案例堆叠,同时添加了一些缺失的形态特征,以使模式更具包容性。鉴于上一个UniMorph版本,我们还通过16种语言的词素分割增强了数据库。最后,这个新版本通过通过代表来自metphynet的派生过程的实例丰富数据和注释模式来推动将衍生物形态纳入UniMorph中。
translated by 谷歌翻译
在这项工作中,如果机器学习模型是来自任何简单分类器的集合,我们考虑使用量子算法预测二进制分类问题的结果。这种方法比古典预测更快,并使用量子和经典计算,但它基于概率算法。让$ N $来自集合模型的许多分类器,$ O(t)$是一个分类器上的运行时间。在古典案例中,集合模型从每个分类器和“平均值”得到结果。经典案例中的运行时间是$ o \ left(n \ cdot t \右)$。我们提出了一种在$ o \ left的算法(\ sqrt {n} \ cdot t \ over)$。
translated by 谷歌翻译
我们引入隐深自适应设计(iDAD),在实时与隐性模型进行适应性实验的新方法。iDAD通过学习设计政策网络的前期,然后可以在实验时快速部署摊销贝叶斯优化实验设计(BOED)的成本。该iDAD网络可以在其模拟微样品,不同于需要一个封闭的形式可能性和条件独立实验以前的设计政策工作的任何模型进行训练。在部署时,iDAD允许以毫秒为单位进行设计决策,而相比之下,需要实验本身期间繁重的计算传统BOED方法。我们说明了多项实验iDAD的适用性,并表明它提供了与隐式模型进行适应性设计一个快速和有效的机制。
translated by 谷歌翻译
我们解决了现实世界用户生成的离散事件序列上的自我监督学习问题。自我监督的学习将来自原始数据的复杂信息包含在低维固定长度矢量表示中,这些信息可以轻松地应用于各种下游机器学习任务中。在本文中,我们提出了一种新方法“ COLES”,该方法将以前用于音频和计算机视觉域的对比度学习适应自我监督的设置中的离散事件序列域。我们根据大型欧洲金融服务公司的交易序列部署了COLES嵌入。 COLES嵌入的用法显着提高了预先存在的模型在下游任务上的性能,并产生了巨大的财务收益,每年以数亿美元的价格衡量。我们还在几个公共事件序列数据集上评估了COLES,并表明COLES表示在不同的下游任务上始终超过其他方法。
translated by 谷歌翻译